Натискането на Big Tech във военния AI е тревожно
Писателят е програмен шеф на Института за световни въпроси в Eurasia Group
Когато Openai и Mattel оповестиха партньорство по -рано този месец, имаше имплицитно признание на рисковете. Първите играчки, захранвани с изкуствен интелект, не биха били за деца под 13 години.
Друго партньорство предходната седмица пристигна с на пръв взор по -малко предизвестия. Openai настрана разкри, че е спечелил първия си контракт за Пентагона. Той би пилотирал стратегия за 200 млн. Долара за „ създаване на първообраз по граница на AI благоприятни условия за справяне с сериозните провокации пред националната сигурност както в домейните на Warfight, по този начин и в предприятията “, съгласно Министерството на защитата на Съединени американски щати. ; Приложението на националната сигурност на ежедневните приложения в действителност се трансформира в даденост. Въоръжени с разкази за това по какъв начин са презареждали Израел и Украйна в своите войни, някои софтуерни компании са сложили това като новия национализъм, без да водят диалог за това дали това би трябвало да се случва преди всичко, камо ли по какъв начин да се подсигурява, че етиката и сигурността са приоритизирани.
Силиконовата котловина и Пентагонът постоянно са били преследвани. Компанията построява екип за национална сигурност с ученици на администрацията на Байдън и едвам предходната година безшумно отстрани възбрана да употребява приложенията си за такива неща като създаване на оръжия и „ война “. В края на 2024 година Openai си партнира с Андурил, Maga-Aligned Mega-Startup, ръководен от Палмър Луки.
Big Tech се промени фрапантно от 2018 година, когато чиновниците на Гугъл стачкуваха против тайните старания на Пентагона, наречена Project Maven поради етичните проблеми, което накара софтуерния колос да пусне контракта. Сега Гугъл изцяло преразгледа своя метод.
Гугъл Cloud си сътрудничи с Lockheed Martin на генеративен AI. Мета също промени политиките си, тъй че военните да употребяват Llama AI. Големите софтуерни преследвания Amazon и Microsoft са всички. И антропикът си партнира с Palantir, с цел да стигне до Клод в американските военни.
Лесно е да си представим преимуществата на AI тук, само че това, което липсва от обществения взор, е диалог за рисковете. Сега е добре документирано, че AI от време на време халюцинира или поема личен живот. На по -структурно равнище потребителските технологии може да не са задоволително сигурни за потреблението на националната сигурност, предизвестиха специалистите.
Много американци и западноевропейците споделят този песимизъм. Неотдавнашното изследване на моята организация за Съединени американски щати, Англия, Франция и Германия откри, че болшинството поддържат по -строги разпореждания, що се отнася до военните ИИ. Хората се тормозят, че това може да бъде въоръжено от съперници - или употребявани от техните лични държавни управления за проучване на жителите.
Респондентите бяха препоръчани осем изказвания, на половина наблягайки изгодите на AI за военните и на половина, подчертаващи рисковете. В Обединеното кралство по -малко от половината (43 на сто) обявиха, че AI ще помогне на военните на страната им да подобрят работния си поток, до момента в който огромно болшинство (80 на сто) съобщи, че тези нови технологии би трябвало да бъдат по -регулирани, с цел да защитят правата и свободите на хората.
Използването на AI за война може да бъде в най -крайната си, да се докара на тъмен логаритъм в въпросите на живота или гибелта. И това към този момент се случва в Близкия изток.
Израелският информативен бюлетин +972 е разследвал военния ИИ на Израел в насочването на водачите на Хамас в Газа и заяви, че „ хиляди палестинци - множеството от тях дами и деца или хора, които не са взели участие в боевете - са били изтрити от израелските ефири “.
Американските военни от своя страна са употребявали AI за избор на цели в Близкия изток, само че върховен чиновник на Пентагона съобщи пред Bloomberg предходната година, че не е задоволително благонадежден да работи независимо.
отворен диалог за това какво значи, че софтуерните колоси да работят с милитари. Тъй като Miles Brundage, някогашен откривател на Openai, предизвести: „ AI фирмите би трябвало да бъдат по -прозрачни, в сравнение с сега са за това кои национални сигурност, правоприлагането и имиграционните случаи, които вършат и не поддържат, с кои държави/агенции и по какъв начин те ползват тези правила. “
Във време на война и неустойчивост по света обществеността се стреми към диалог за това какво в действителност значи за военните да употребяват AI. Те заслужават някои отговори.